首页> 外文OA文献 >Knowing When to Look: Adaptive Attention via A Visual Sentinel for Image Captioning
【2h】

Knowing When to Look: Adaptive Attention via A Visual Sentinel for Image Captioning

机译:知道何时看:通过Visual sentinel for Image的自适应注意   字幕

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Attention-based neural encoder-decoder frameworks have been widely adoptedfor image captioning. Most methods force visual attention to be active forevery generated word. However, the decoder likely requires little to no visualinformation from the image to predict non-visual words such as "the" and "of".Other words that may seem visual can often be predicted reliably just from thelanguage model e.g., "sign" after "behind a red stop" or "phone" following"talking on a cell". In this paper, we propose a novel adaptive attention modelwith a visual sentinel. At each time step, our model decides whether to attendto the image (and if so, to which regions) or to the visual sentinel. The modeldecides whether to attend to the image and where, in order to extractmeaningful information for sequential word generation. We test our method onthe COCO image captioning 2015 challenge dataset and Flickr30K. Our approachsets the new state-of-the-art by a significant margin.
机译:基于注意力的神经编码器-解码器框架已广泛用于图像字幕。大多数方法会迫使视觉注意力永远活跃在每个生成的单词上。但是,解码器可能几乎不需要图像的视觉信息即可预测诸如“ the”和“ of”之类的非视觉单词。看起来看似视觉的其他单词通常可以仅根据语言模型可靠地进行预测,例如,“ sign”之后“在单元格上交谈”之后的“红色停止点后面”或“电话”。在本文中,我们提出了一种具有视觉前哨的新型自适应注意力模型。在每个时间步长,我们的模型都决定是关注图像(如果是,则关注哪个区域)还是视觉标记。该模型决定是否关注图像以及在哪里关注,以便提取有意义的信息以进行顺序的单词生成。我们在COCO图片字幕2015挑战数据集和Flickr30K上测试了我们的方法。我们的方法极大地设置了新的最新技术。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号